Heise 08.01.2026
14:00 Uhr

heise+ | Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken


Das Wissen lokaler KI-Modelle ist auf ihre alten Trainingsdaten beschränkt. Dieser Workflow bringt ihnen Online-Recherche bei: mit quelloffener Gratis-Software.

heise+ | Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken

Zu den größten Stärken lokaler KIs zählt der Datenschutz. Nutzer können sich ungestört mit ihren LLMs unterhalten, ohne dass ein Dritter Gespräche mitliest, speichert und für eigene Zwecke auswertet. Ein wesentlicher Nachteil der lokalen LLMs aber ist der statische Wissensstichtag: Er ist auf den Zeitpunkt des Trainings beschränkt; Informationen, die danach entstanden sind, bleiben ohne externe Hilfe verborgen. Bei vielen Modellen liegt dieser Stichtag mehr als ein Jahr zurück. Ein Anfang 2025 trainiertes lokales LLM kann nicht wissen, wer beispielsweise im Oktober 2025 den Physiknobelpreis erhalten hat.

Web-Suchfunktionen schließen diese Lücke. Lokale KI-Modelle lassen sich relativ unkompliziert mit der Fähigkeit zur Internet-Recherche ausstatten: völlig kostenlos und komplett auf dem eigenen System gehostet. Wir haben das in einem lokalen Setup eingerichtet und ausprobiert. Der Einrichtungsaufwand liegt nur bei einer guten Stunde und bedient sich ausschließlich frei nutzbarer, quelloffener Software.

Der Artikel erklärt, wie Sie eine Web-Suchfunktion für Ihre lokalen KI-Modelle unter Windows 11 einrichten. Voraussetzung dafür ist eine Ollama-Installation. Der Text erläutert Schritt für Schritt die Einrichtung von Open WebUI unter Docker und einer geeigneten Suchmaschine für hohen Datenschutz. Fertig eingerichtet durchpflügt das KI-System das Internet nach aktuellen Informationen, liest Web-Inhalte aus und liefert die passenden Quellen zum Nachlesen.